В конце 2010 года фирма Intel сообщила о своем желании приобрести одного из ведущих поставщиков антивирусных решений — McAfee. На первый взгляд, — несуразное решение, но только на первый. Встраивание механизмов защиты от вирусов непосредственно в аппаратуру компьютера — это многообещающая идея и новая ступень в развитии антивирусных технологий.
Таги: VMachines, Hardware, Security, Intel, McAfee, Red Pill,
В предыдущей статье был описан гипердрайвер, использующий технологию аппаратной виртуализации, думаю любой, кто удосужился прочитать данную статью хотя бы до середины, понял, что эта технология позволяет осуществлять тотальный контроль над вычислительной системой в целом, операционной системой и прикладными программами.
Компания VMware выпустила очень полезный и нужный Performance Best Practices for VMware vSphere 4.1, который нужно прочитать каждому администратору более-менее серьезной виртуальной инфраструктуры серверов ESX. Содержание вполне конкретное:
Hardware for use with VMware vSphere
ESX and virtual machines
Guest operating systems
Virtual infrastructure management
Например:
To establish a network connection between two virtual machines that reside on the same ESX system, connect both virtual machines to the same virtual switch. If the virtual machines are connected to different virtual switches, traffic will go through wire and incur unnecessary CPU and network overhead
Интересно, что в документе есть рекомендации по выбору и оптимизации аппаратного обеспечения, которые нужно прочитать до покупки серверов и других компонентов виртуальной инфраструктуры.
Как вы знаете, в VMware vSphere есть возможность предоставления прямого доступа виртуальной машины к устройствам хост-сервера (например, HBA-адаптер или сетевая карта), которая называется VMDirectPath. С помощью этой техники многие пытались в предыдущих версиях vSphere прикрутить к виртуальной машине USB Controller, но теперь USB поддерживается для проброса в виртуальные машины, поэтому VMDirectPath в основном используют для Ethernet-адаптеров.
Кстати USB-устройства пробрасываются не через VMDirectPath (об этом можно почитать вот в этой KB).
Но использование VMDirectPath не позволяет использовать множество распределенных служб VMware vSphere, таких как VMware vMotion, DRS, Fault Tolerance и других, так как привязывает виртуальную машину к устройствам сервера, а, соответственно, к самому серверу. Сейчас вариантов применения VMDirectPath практически не осталось, так как в драйвере сетевого адаптера vmxnet3 компания VMware сделала множество нововведений - и он теперь работает гораздо более производительно, и его использование не сильно уступает ситуации, когда используется Passthrough-устройство (вот здесь подробнее).
Чтобы VMDirectPath работал нужно, чтобы хост-сервер VMware ESX / ESXi поддерживал технологии Intel Virtualization Technology for Directed I/O (Intel VT-d) или AMD IP Virtualization Technology (IOMMU).
Настройка VMDirectPath происходит в vSphere Client на вкладке Configuration для хоста ESX / ESXi (ссылка Configure Passthrough):
Надо отметить, что есть случаи, когда VMDirectPath позволяет получить прирост в производительности сетевых адаптеров для виртуальных машин (у Intel есть интересное видео на эту тему, а у VMware - результаты тестов).
Кстати VMDirectPath на хосте VMware ESX / ESXi можно отключить вот так. Ну и, конечно, надо почитать статейку VMware VMDirectPath I/O.
Таги: VMware, vSphere, VMDirectPath, ESX, ESXi, VMachines, Hardware, USB
Данная статья основывается на инструкции, написанной Joseph Holland, Kepak Group «How to configure VMWare ESXi to shutdown using an APC SmartUPS. v3.0_20090312», и является ее переработанным и дополненным переводом. Для настройки интеграции UPS APC и VMware ESXi понадобится установленный виртуальный модуль vMA.
Одной из новых возможностей решения для виртуализаци настольных ПК VMware View 4.5 стала возможность организации ярусного хранения данных виртуальных машин (Tiered Storage), где для различных типов данных в зависимости от требований к производительности можно использовать различные типы устройств хранения.
Мы уже писали о средстве VMware View Composer, которое позволяет использовать связанные клоны (Linked Clones) в целях экономии дискового пространства. Composer использует один базовый образ виртуального ПК на основе которого развертываются новые унифицированные виртуальные ПК с данными пользователей.
Напомним некоторые понятия хранения данных виртуальных ПК:
Master Replica – это основной образ виртуального ПК с установленной гостевой ОС и приложениями, хранимый как шаблон.
Replica – это клон Master Replica на базе дисков растущих по мере наполнения (Thin Provisioned). Он создается для каждого нового пула виртуальных ПК на своем datastore. Этот образ используется для создания новых десктопов-связанных клонов, которые зависят только от Replica, что позволяет вносить изменения в Master Replica, не затрагивая дочерние виртуальные машины пула.
Linked Clone – это связанный клон на базе реплики, который представляет собой совокупность: Измененные данные реплики (Delta Footprint) + Журнал (Log) + Диск с пользовательскими данными (User Data Disk)
В VMware View 4.5 появились новые типы дисков:
Persistent Disk – это и есть старый User Data Disk, который теперь носит такое название. Можно хранить persistent disk внутри диска гостевой ОС либо на отдельном vmdk.
Disposable Disk – это отдельный диск для хранения файлов подкачки гостевой ОС и временных файлов. View Manager удаляет эти файлы после выключения связанного клона. Этот тип диска позволяет замедлить рост данных, занимаемых виртуальным ПК.
Теперь Linked Clone представляет собой следующую комбинацию:
Измененные данные реплики (Delta Footprint) + Журнал (Log) + Диск с пользовательскими данными (Persistent Disk) + Временный диск (Disposable Disk)
Для чего это сделано? Очевидно, что эти типы данных, из которых состоит виртуальная машина требуют различного быстродействия, что ведет за собой хранение этих объектов на разных типах носителей.
Через View Administrator можно выбрать различные Datastores для описанных выше объектов, которые могут размещаться на флеш-носителях SSD (самые быстрые), Fibre Channel (помедленнее) и SATA (самые медленные). Само собой, чем быстрее носитель - тем он дороже, поэтому, например, реплику (которая одна для всего пула и всеми машинами используется) можно размещать на SSD.
А вот пользовательские диски можно размещать и на носителях SATA. Картина в целом такова:
Красиво? По-моему, самое оно для всяких там Enterprises.
Вместе с VMware vSphere 4.1 компания VMware выпустила также новую версию продукта Site Recovery Manager (SRM), предназначенного для создания катастрофоустойчивой виртуальной инфраструктуры.
Помимо функций, имеющихся в версии 4.0, VMware SRM 4.1 получил следующие новые возможности:
Поддержка VMware vSphere 4.1
Возможность изменять system shutdown retry timeout в гостевой ОС при кастомизации IP-адресов, а также datastore discovery timeout в процессе восстановления
Поддержка виртуальных сетей на базе VMware vNetwork Distributed Switch (vDS) на основном и резервном сайте
Поддержка IP customization для гостевых ОС Windows 7 и Windows Server 2008 R2
Серверная часть VMware SRM 4.1 теперь только 64-битная (клиентская осталась 32-битной), соответственно, она не совместима с vCenter 4.0.
Экосистема партнеров решения SRM теперь включает дисковые массивы 14 вендоров: 3PAR, Compellent, Dell | EqualLogic, EMC, FalconStor, Fujitsu, Hitachi, HP, IBM, LSI, NEC, NetApp, Sun, Xiotech.
Скачать VMware Site Recovery Manager 4.1 можно по этой ссылке.
Интересный пример совместного использования технологий HP и Microsoft показал нам Calvin Zito. За счет Live Migration в Hyper-V и репликации в массивах HP EVA происходит перемещение виртуальных машин между датацентрами (и серверами, и хранилищами). И все это делается на большие расстояния!
Итак, Long Distance Cluster Extension EVA Live Migration with Hyper-V:
Таги: Microsoft, Hyper-V, HP, Live Migration, Storage, Hardware, Replication, VMachines
Компания StarWind, известная своим продуктом StarWind Enteprise HA для создания отказоустойчивых iSCSI хранилищ под серверы виртуализации VMware vSphere, Citrix XenServer и Microsoft Hyper-V, выпустила интересный бесплатный продукт FCoE Initiator.
Программа устанавливается в ОС Windows и позволяет получить доступ к хранилищам данных Fibre Channel через сеть передачи данных Ethernet. Типа как данное решение позволяет существенно сэкономить на инфраструктуре доступа к SAN за счет имеющихся IP-сетей (особенно для виртуальной инфраструктуры). Fibre Channel умирает, господа. Данное решение позволит вам потихоньку начать избавляться от FC.
Мануал по StarWind FCoE Initiator находится здесь.
Еще на VMworld 2009 компания VMware анонсировала технологию Storage IO Control (SCIO), которая должна появиться в следующих релизах платформы виртуализации VMware vSphere (по слухам уже в версии 4.1). Суть данной технологии - корректное распределение нагрузки на систему хранения данных (СХД) для виртуальных машин.
Сейчас у виртуальных машин есть такие настройки как Shares для категории Disk, которые определяют приоритеты виртуальных машин по нагрузке на СХД в рамках одного сервера VMware ESX. То есть, если у нас есть два сервера VMware ESX и виртуальные машины на них, то приоритеты нагрузки на storage будут распределены следующим образом при наличии параметров shares:
То есть очередь дискового массива пропорционально делится между хостами VMware ESX, а уже для каждого хоста его процент очереди делится на части в зависимости от Shares виртуальных машин.
Такой механизм не отражает реальную ситуацию по отношению к требованиям виртуальных машин к вводу-выводу, поскольку даже наиболее критичные сервисы в виртуальных машинах на хосте VMware ESX в кластере не могут получить больше, чем 1/n от очереди массива для тома VMFS / LUN, где n - число хостов ESX.
Технология Storage IO Control (SCIO) позволяет изменить данную ситуацию за счет двух техник:
Вычисление задержек (latency) на том VMFS для запуска механизма SCIO (говорят о 20ms и более)
Изменение пропускной способности канала виртуальных машин хоста к СХД за счет изменения глубины очереди HBA-адаптера (device queue depth)
Регулировка очереди со стороны HBA-адаптера позволяет более корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами shares:
Как мы видим, наиболее критичный сервис (красный цвет), при условиях заданных shares для нескольких хостов ESX, позволяет потреблять 60% от того, что может выдать дисковый массив для данного тома VMFS. Это соответствует соотношению:
Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем, что позволяет надежно защитить наиболее критичные сервисы в виртуальных машинах от всплесков нагрузки на систему хранения данных в виртуальной инфраструктуре.
Многие пользователи сейчас уже тестируют и внедряют решение для виртуализации настольных ПК VMware View 4. Как оказалось, в некоторых случаях при соединении с десктопом под управлением Windows XP с помощью клиента VMware View Client возникает ошибка connect desktop failed:
При этом соединение с виртуальным ПК VMware View 4 по RDP работает.
Если посмотреть в Event log, то там будет вот такое сообщение:
Failed loading plugin: wswc_PCOIP.dll, error 126 (the specified module could not be found)
Если поискать эту библиотеку - ее действительно не обнаружится. Данная проблема связана с отсутствием поддержки инструкций SSE2 в процессоре ПК, где установлен VMware View Client. Читаем в документе "View Manager Administration Guide":
Client hardware requirements include the following:
800Mhz or higher processor speed
x86‐based processor with SSE2 extensions
Таким образом, в этом случае вы не сможете заставить работать ваш ПК в качестве клиента VMware View 4 по протоколу PCoIP. Поэтому необходимо предварительно посмотреть VMware Compatibility Guide на соответствие вашего устройства требованиям VMware View. Чтобы проверить наличие функций SSE2 в процессоре вашего ПК, воспользуйтесь утилитой CPU-Z:
Заждались? Но, не волнуйтесь, он уже здесь - пятый выпуск обзора бесплатных программ и утилит для виртуальной инфраструктуры VMware vSphere / ESX / ESXi. Сегодня мы рассмотрим все самые интересные бесплатные средства администрирования и управления серверами ESX и ESXi, а также приведем ссылки на все заметки VM Guru, опубликованные ранее по этой теме.
Если у вас был физический сервер HP ProLiant, а вы решили перенести его в виртуальную машину на VMware vSphere / ESX, то в ВМ наверняка должны остаться Management Agents от HP. Чтобы они не мешались на виртуальной машине, где виртуальное Hardware уже не от HP, можно воспользоваться утилитой HP Proliant Support Pack Cleaner от Guillermo Musumeci:
Нажимаем кнопку Remove PSP (Proliant Support Pack) - и виртуальная машина очищена от агентов HP.
С процессорами семейства Intel Nehalem технология Hyperthreading снова вернулась в нашу жизнь, демонстрируя в некоторых тестах до 20%-30% прироста производительности по сравнению с тем, когда она отключена. Ранее в документации VMware vSphere для технологии непрерывной доступности виртуальных машин Fault Tolerance требовалось, чтобы Hyperthreading был disabled.
Теперь компания VMware прояснила пользователям, что это требование неактуально. Hyperthreading в состоянии enabled полностью поддерживается технологией Fault Tolerance. Цитата из VMware KB1013428:
Does Fault Tolerance support Intel Hyper-Threading Technology? Yes, Fault Tolerance does support Intel Hyper-Technology on systems that have it enabled. Enabling or disabling Hyper-Threading has no impact on Fault Tolerance.
Не секрет, что по высказываниям президента компании можно понять, в каком направлении она разивается и планирует развиваться. Для VMware сейчас стоит множество вопросов как для компании, которая со временем может превратиться в "облачного гиганта", занявшего большую часть рынка виртуализации и Cloud Computing. Поэтому очень интересно послушать, что говорит Пол Мориц (Paul Maritz), глава VMware, на всемирной конференции по виртуализации VMworld 2009:
О возможной поддержке серверами VMware vCenter управления хостами Microsoft Hyper-V:
if we have enough customer demand, we'll consider supporting Hyper-V in the future
О недавно вышедшем продукте Microsoft Hyper-V R2:
Hyper-V R2, "is now where we were three years ago".
О горячей миграции (VMotion) между серверами на базе процессоров Intel и AMD:
"nobody's building clouds on [AMD] architecture ... it's all on x86 ... that war's over"
О том, что уже 500 000 пользователей скачали бесплатный VMware ESXi:
VMware "would like to know what they're doing" with it
Если вам необходимо узнать, поддерживается ли технология аппаратной виртуализации Intel VT или AMD-V на хосте VMware ESX из состава vSphere, можно воспользоваться следующей инструкцией... Таги: VMware, ESX, IntelVT, AMD-V, Hardware
В прошлом году компания AMD анонсировала технологию Rapid Virtualization Indexing (RVI), известную также как Nested Page Tables. Если быть кратким то эта технология позволяет виртуализовать страницы памяти и отдать их под прямой контроль гостевой системы, не затрагивая (и, соответственно, не перегружая) гипервизор. С аналогичной технологией в 2009 году вышла и компания Intel, выпустив Extended Page Tables (EPT) в линейке процессоров Xeon 5500... Таги: IntelVT, AMD-V, Hardware, VMware, ESX, EPT, RVI
Компания VMware является признанным лидером в производстве решений для обеспечения отказоустойчивости инфраструктуры виртуальных серверов. Катастрофоустойчивое решение VMware Site Recovery Manager позволяет организовать резервный виртуальный ЦОД на случай аварии в основном датацентре.
Поскольку использование VMware SRM полностью опирается на ПО для репликации данных дисковых массивов сторонних вендоров, при его внедрении требуется изучить определенный набор документов, который мы и приводим ниже для массивов LeftHand, HP, NetApp, Dell и EMC...
Таги: VMware, SRM, Storage, Hardware
Бурное развитие рынка технологий виртуализации за последние несколько лет произошло во многом благодаря увеличению мощностей аппаратного обеспечения, позволившего создавать по-настоящему эффективные платформы виртуализации, как для серверных систем, так и для настольных компьютеров. Технологии виртуализации позволяют запускать на одном физическом компьютере (хосте) несколько виртуальных экземпляров операционных систем (гостевых ОС) в целях обеспечения их независимости от аппаратной платформы и сосредоточения нескольких виртуальных машин на одной физической. Виртуализация предоставляет множество преимуществ, как для инфраструктуры предприятий, так и для конечных пользователей. Компания Intel первая увидела в новой технологии источник получения технологического превосходства над конкурентами и начала работу над усовершенствованием x86 архитектуры процессоров в целях поддержки платформ виртуализации. Вслед за Intel компания AMD также присоединилась к разработкам в отношении поддержки аппаратной виртуализации в процессорах, чтобы не потерять позиции на рынке. Таги: VMachines, Hardware, IntelVT, AMD-V
Технология виртуализации позволяет объединить и абстрагировать физические ресурсы серверов и рабочих станций для пользователя путем создания нескольких независимых виртуальных машин. Каждая из этих виртуальных машин способна выполнять собственную операционную систему и прикладную среду. Традиционный программный способ реализации виртуализации для архитектуры x86 связан с необходимостью использовать высокопроизводительные системы с пониженной безопасностью и излишней сложностью. Аппаратная технология виртуализации AMD позволяет решить эти проблемы.